查看原文
其他

硅谷王川:摩尔定律还能走多远?

2016-07-30 战略前沿技术


本文转自:investguru(ID:investguru)

作者:硅谷王川,感谢王老师授权转载


https://v.qq.com/txp/iframe/player.html?vid=o0317kc2iq5&width=500&height=375&auto=0


一、摩尔定律的传统定义是: 半导体芯片上的晶体管密度,平均每 18-24个月翻一番.

它最初于1965年四月被芯片公司英特尔的创始人 戈登*摩尔 (Gordon Moore) 在一篇名叫 "把更多零件塞到集成电路里" (Cramming more components into Integrated Circuit) 的论文中提出.

2013 年八月,曾就职于英特尔任总设计师的 Bob Colwell 在芝加哥的一个行业会议上宣称: 芯片行业的摩尔定律要终结了.

"从计划的时段来看,我认为 2020年可能是摩尔定律最早的终结时间. 你也许可以说服我拖到 2022年, 但不管它 (栅长, 晶体栅极的最小线宽)是到 7 纳米, 或者 5 纳米,这 (摩尔定律的终结) 是一件大事.  "   ( 普通人的头发直径大约 75000 纳米)

Colwell, 不是第一个, 也不是最后一个,预测摩尔定律即将终结的人.

摩尔本人, 曾在1995年预测, 摩尔定律将于 2005年终结.

2015年, 摩尔本人, 再次预测, 摩尔定律将于 2025年终结.

最近的关于摩尔定律终结的各种预测, 最主要的理由,是到2025年之前,如果栅长缩小到只有 3纳米,其长度只相当于十个原子的大小. 在这个尺度,电子的行为方式将进入量子力学测不准原理的领域,晶体管可靠性将完全无法保证. 另外在这个尺度,晶体管的散热和芯片的生产成本控制,看起来也是无法逾越的技术挑战.

摩尔定律真的会终结吗?

如果会,是不是意味着科技发展将停滞不前,人类一起在地球上混吃等死?

如果不会,它对未来人类文明的进步,又意味着什么?

二、在展望未来之前,非常有必要回顾一下摩尔定律过去五十年的演变.

摩尔最初在1965年论文中提出的晶体管密度的概念,不是芯片上最多可以安放多少晶体管,而是从生产成本角度看,晶体管数目的最优值.

生产芯片时,增加晶体管数目一般会降低晶体管的单位成本.但是数目超过一个临界点,芯片生产出现瑕疵的几率增加,开始抵消密度增加的好处.集成电路的设计和生产,最终都是要寻求一个最优点.

摩尔在 1965年的预测, 是十年内,晶体管的密度,每年都会翻番.到1975年,一个芯片上的晶体管数目,将从 1965年的 64个增加到 1975年的65000 个.

后来英特尔在1975年生产的一个内存芯片 (面积为四分之一平方英寸, 折合约 161 平方毫米) 的晶体管数目达到 32000 个, 和摩尔的最初预测非常接近.

1975年摩尔在一篇论文中总结了前十年芯片密度增加的主要原因:

1.晶体管小型化

2.芯片面积增加

3. 新的设计技巧提高空间的利用率.

但是空间利用率的提高终归有限,所以摩尔在1975年修正了他的预测,把晶体管密度的增速,从每年翻番变成每两年翻一番.

以内存芯片为例, 2000 年的 DRAM, 204 平方毫米的面积上有 256,000, 000 个晶体管. 和 1975年相比, 晶体管密度 25年增加了 6300 倍. (如果按照摩尔定律两年翻一番的速度, 25年是增加 5800 倍左右, 基本上比较接近)

相应芯片的存储容量则从 0.001 Mb 增加到 256 Mb, 扩大了二十五万倍.

传统工程设计上, 往往需要权衡多种因素的利弊. 但在相当长一段时间内, 晶体管小型化在实践上不仅增加密度,而且使晶体管速度更快,能耗更低,不需要担心其它因素的限制.

平均每两年换一代的芯片生产技术,栅长缩小30% (x 0.7) ,相应的晶体管密度翻番,晶体管之间的延迟缩短30%, 导致相应的时钟频率增加40%,晶体管的电压减少30%, 单位能耗则减少50%. 由于晶体管整体数目翻番,所以整体能耗不变,但电路整体快了 40%.

但是到了本世纪初,晶体管的小型化遇到了瓶颈, 当栅长低于100纳米以后,晶体管漏电的问题变得严重,成了一个不可忽视的问题.

三、晶体管本质, 就是用"开"和"关"的状态,表示二进制里的 1 和 0.

集成电路里的所谓场效应管 (Field-Effect Transistor), 主要是三个部分: 源极 (Source), 栅极 (Gate) ,漏极 (Drain). 栅极本质上是一个电容, 对其施加电压时,栅极下面的沟道 (Channel) 联通源极和漏极,晶体管开启,代表"1"的状态. 电压取消时,电流降为零,晶体管关闭, 代表"0"的状态.


人们通常说的 CPU 的时钟频率, 就是晶体管开关的速度. 1 Ghz 就是 1秒钟内可以开关十亿次.

为什么人类的计算革命,选择了晶体管?

因为晶体管的持续小型化,使得单位生产成本的计算能力, 不断指数型的迅速增长.

与之相比,古老的算盘,算珠拨弄的速度 (类似晶体管开关的速度),和数据的容量,两千多年来没有实质的提高.

四、随着晶体管不断小型化,各种漏电问题成为摩尔定律发展的重大障碍.漏电意味着能量消耗的大大增加, 芯片过热甚至失效.

一类比较典型的漏电是所谓的 "栅氧化层泄露" (Gate Oxide Leakage).

传统的场效应管的栅极 (Gate) 底下是一层二氧化硅 (Silicon Oxide) 的材料, 其厚度随着晶体管小型化也相应减少 (否则会影响栅极的电容和晶体管的性能). 当栅极长度缩减到 45 纳米量级时, 二氧化硅的有效厚度只有一纳米左右, 由于量子隧穿的效应,会导致栅极的严重漏电现象.

最终英特尔经过千万次实验后推出的解决方案, 是使用一种 "高介电常数" (high dielectric) 的材料, 以金属铪(Hafnium) 氧化物为基础的材料,取代二氧化硅, 其物理厚度没有减小, 但不会影响栅极的电容量.

2007年英特尔推出的 45纳米的芯片,栅极漏电比上一代技术减少了90%以上.

五、另一类漏电,来自所谓的"短沟道效应" (Short Channel Effect)的问题.简言之,就是晶体管栅极长度不断缩小,晶体管导电的阈值电压不断下降,零电压时的还有微弱的电流经过.

这个问题的本质, 是在栅极很短的时候,漏极本身也成了一个电容,和栅极竞争了.栅极越小,在离栅极较远的地方,源极和漏极之间的漏电无法控制. 如下图.


1996 年, 当工业界还在生产250纳米的芯片时, 大众的观点是晶体管小型化到 100纳米以下几乎不可能. 但是美国国防先进研究项目总署 (DARPA)已经在思考小型化到 25 纳米时,短沟道效应导致的漏电挑战了. 

加州大学伯克利分校的胡正明教授, 1997年获得 DARPA 资助, 提出了 FinFET 的设计概念. 其思路本质,是在三个侧面用栅极把晶体管包住,这样源极和漏极的任何通道,离栅极都不会太远,短沟道效应带来的漏电现象大大减弱.


这个设计,因为形状像鱼鳍 (Fin), 所以也被称为 FinFET. (FET 是"场效应管"的英文缩写)


十几年后, 在克服各种生产技术挑战后, 2011年英特尔在 22 纳米芯片中第一次使用了 FinFET 的技术. 这个技术被戈登*摩尔称为是"四十年来半导体行业中最激进的改动".

六、如果以史为鉴,突破晶体管小型化的物理极限,并没有观察者现在那么悲观. 原来看似无法逾越的问题,换个不同的角度会有意向不到的解决方案.

摩尔定律最初说的是晶体管的密度.

密度增加, 意味着晶体管小型化, 意味着

    单位成本的集成电路,
    在能耗不变的情况下,
    其计算能力会不断提高.

小型化只是表象,在生产成本和能耗不变的情况下,提高计算能力,才是摩尔定律的精髓. 按照这个思路, 推动摩尔定律前进的路径实际上还有很多.

在 2002年之前,随着芯片密度的增加, CPU的时钟频率也一直不断增加. 对于普通消费者而言,CPU 的频率就代表计算机的快慢.  1981年最早出厂的 IBM PC, CPU 的频率是 4.77 兆赫, 相当于一秒钟四百七十七万个时钟周期. 假设 CPU 一个时钟周期可以运行一条指令, 频率越高, 就算得越快.

1995年的奔腾芯片,时钟频率达到了 100 兆赫, 是 1980年的二十倍还多.

而到了 2002年, 英特尔新型奔腾芯片时钟频率第一次突破 3000 兆赫 (3 GHz).

限制时钟频率的第一个主要物理约束条件是: 信号在晶体管之间传输的迟滞. 这也是为什么晶体管密度越大,时钟频率可以越高.

2002年之后, CPU 时钟频率增加遇到了第二个技术瓶颈: 能量消耗.

简单说, CPU的能量消耗和时钟频率的三次方近似成正比, 在 3 Ghz 之后, 频率的继续提高会使芯片过热而面临被烧毁的风险.

实际上, 2002 年之后, 英特尔CPU 的时钟频率大多一直在 2 GHz - 4 GHz 之间, 十四年来没有本质提高.


但时钟频率不再增长, 并不意味着 CPU 性能的停滞不前. 就像人类的大脑, 过去二十万年没有本质变化, 但并不意味着人类文明不会发生开天辟地的进步.

这时候,最有用的思路,是寻找新的维度,去进攻解决问题.

七、如果说, CPU的时钟速度好比人脑的计算速度, 那么 CPU 的内存读取速度就好比人获取信息的速度. 这是提升 CPU 性能的第一个不同的维度.

有过基本工作或者研究经验的人,都会有这样的体会:

大多数时候,限制工作效率的瓶颈是:  查资料,找东西.

找不到就只能干着急.

二十年前的科研者,查资料要去图书馆,小图书馆没有资料就要去更大的图书馆,没有计算机检索之前需要一张张翻卡片查. 查找资料的时间,动辄就是几个小时甚至更多,超过了真正研究分析的时间. 这和今天,十秒钟内就可以在互联网上,精准搜索和下载世界上大部分论文资料,完全不可同日而语.

电脑的内存架构,实际上要细分为 Register (寄存器), Cache (高速缓存), Memory(内存), Disk (硬盘). 而缓存又可以细分为一级缓存 (Level 1 Cache), 二级缓存, 三级缓存, 甚至四级缓存.


打个比方, 寄存器上的数据,好比你手中那张纸上写的信息, 信息量很少,但立等可取.

一级缓存, 好比桌面上的书, 信息量多一些, 伸一下手可以拿到;

二级缓存, 好比抽屉里的书,打开抽屉后仍然很快可以拿到;

内存, 好比书架上的书, 要站起来去查找;

硬盘, 就是图书馆的资料,需要花几个小时到外面跑一趟才可以查到了.

研究者,如果无法迅速获取需要的资料,天天要往图书馆跑,即使牛顿/爱因斯坦再世, 聪明的脑瓜也只能像高速的 CPU 一样, 无效地空转, 痛苦地在来去图书馆的道路上等待.

以 Intel 的 i7-4770 CPU 为例, 其时钟频率 3.4 GHz. 一级和二级缓存,读取数据的延迟一般在 5 - 12个时钟周期,相当于约 2-4 纳秒.如果要到内存读取数据, 迟滞则约 70 纳秒, 等价于200多个时钟周期. 如果内存找不到, 不幸地要去硬盘搜索,延迟超过 4 毫秒 (等价于四百万纳秒),再快的 CPU 时钟频率, 此时也然并卵矣.

八、摩尔定律的发展,对于 CPU 的时钟速度,和普通内存 (DRAM) 的读取延迟上,进步速度是不一样的.其差距每年以 50%的速度增长.


为了缓解这个矛盾,高速缓存 (Cache) 最早是以外置的形式出现在1985年的英特尔的 386的处理器上.

真正的芯片上的内置的缓存,最早是在1989年的 486处理器上出现,当时容量只有 8 KB, 到九十年代容量提高到 16 KB.

缓存容量过大,会影响搜寻速度,所以又出现了二级, 三级缓存. 这里有很多微妙的设计细节,此处不表.

缓存, 本质上就是以 SRAM (静态随机存储器)为基础的内存. 而SRAM, 本质上就是六个晶体管结构组成的逻辑单元, 如下图.


随着晶体管的小型化,芯片设计者就不断在 CPU 芯片上增加更多的内置的高速缓存.

以 2015年九月英特尔出品的 14 纳米  i7-6560U 处理器为例, 它有两个内核 (core), 每个内核有 64 KB 的一级缓存, 256 KB 的二级缓存, 并共享一个 4 MB的三级缓存.

用于缓存的晶体管占整个CPU 芯片上的晶体管的比例,也从 486时代的 40%左右,到今天许多CPU上接近 90%. (数据出处来自威斯康辛大学 Doug Burger 的论文, "Syetem-level Implication of Processor Memory Integration" )

换句话说,计算的管理,将近90%的内涵, 实际上是对内存记忆的管理.

不管在什么行业,如果做到了高效地搜寻和存储海量的数据, 你可能就已经成功了90%.

九、解决CPU 时钟瓶颈问题的另外一个维度,是增加系统的并行度,同时多做一些事情.

传统上,一个CPU 的芯片只有一个处理器(core, 也称内核 或 核心),当单个 CPU 的时钟速度很难再提高时,芯片设计者的另外一个思路是: 在同一个芯片上增加新的内核,让多个内核同时并行处理一些计算工作.

(下为一个四核CPU的设计示意图)


多核 CPU 的第一个好处是节能. 前面提到,处理器的能耗大约和时钟的频率的三次方成正比. 理论上说,如果把一个内核的时钟频率降低一半 (运算速度也降低一半),能耗就只有原来的八分之一.

如果要解决的计算任务可以很容易分成两部分,并行处理,那么一个双核的CPU可以在保持同样计算能力的情况下,通过降低内核时钟频率的办法,把整体功耗降为原来的八分之一.

当然,这只是理论上的最佳情况, 影响实际功耗的因素,比这个复杂得多.

十、但是 -- 许多应用问题运行上有各类瓶颈,无法充分利用并行计算,尤其是普通个人电脑上的应用. 反对者常常引用的一个例子是"一个女人要九个月才可以生一个孩子,但是你无法让九个女人一个月生一个孩子".

所有的"但是"后面,往往还有另外一个"但是".如果目标是一个月内生出一个孩子,这个问题确实无法通过并行化加快.但是 -- 如果目标是九个月内尽可能生更多的孩子,这个问题完全是可以通过九个女人并行化实现!

从一个新的角度,改变原来设定的目标,就会给现有的技术方法找到用武之地.这个原则,在设计并行计算的系统,在思考解决其它问题时,特别需要注意的一点.

如果说,普通个人电脑要关注的,是生一个孩子的问题. 那么,超级计算机,要解决的,就是在九个月内生最多数目孩子的问题.

以世界顶尖的超级计算机为例, 2000年时在世界排名第一的超级计算机,是 IBM 的ASCI White, 包含八千个内核,成本是一亿美元, 耗电三兆瓦, 计算速度为 7.2 TFLOPS (每秒万亿次浮点计算, 64位浮点数计算, 下同)

2016年四月出品的售价十三万美元, 功耗三千瓦, 包含三万多个内核的 Nvidia 的 DGX-1 系统, 计算速度已经达到约 43 TFLOPS. (当然, CPU/GPU/不同系统的内核,性能特点不一样,有时不可简单类比,在此不赘述.)

到了 2016年, 排名世界第一的超级计算机, 是无锡的神威太湖之光, 包含一千万个内核, 成本接近三亿美元,耗电十五兆瓦,而计算速度则达到 93000 TFLOPS, 是 ASCI White 的一万三千百倍左右.


ASCI White 当年的处理器内核,时钟频率只有 375 Mhz. 而太湖之光的内核,时钟频率大约 1.45 Ghz. 内核的频率相比, 十六年增加了大约四倍.

但以内核数目来衡量的并行程度,则增加了一千两百倍.

这也是过去十几年,超级计算机,计算能力进步的最主要动力.

十一、为什么新一代的超级计算机, 可以支持如此大型的并行计算能力? 而以前做不到?

这要归功于新一代的网络交换器 (Network switch)的数据传输速率, 让不同的内核之间, 系统节点之间, 可以迅速沟通,传输海量数据.

给神威提供交换机芯片的公司, 是总部位于硅谷和以色列的 Mellanox 公司. 神威系统的对分网络带宽高达 70 TB/秒, 这个数字是普通家庭宽带上网带宽的几百万倍.


交换器数据传输速率的进步,又要归功于摩尔定律下的晶体管的不断小型化.

十二、对半导体芯片生产过程不熟悉的人, 常会问这样一个问题:

为什么芯片的密度要两年才翻一番? 为什么不可以更快一点, 两年翻两番, 三番? 为什么我们不能够一下子从 100 纳米跨越到 10 纳米? 而要漫长的十几年才能完成这个过程?

对这个问题的简单回答是: 如果一个人要吃七个馒头才能饱,为什么不可以先直接去吃第七个馒头?

十三、摩尔定律从另外一个角度看,实际上是个生产成本的经济问题.

这都是为了钱.

(下图来自电影"华尔街": "小屁孩, 这都是为了钱.其它是闲扯")


芯片密度的增加,本质上是降低单个晶体管的生产成本和功耗,使终端产品在市场上更有竞争力.

只有终极市场的利益驱动,才会推动厂家投入大量资金, 到新的生产技术里面.

这个资金规模需要多大呢?

1980年,一个普通晶圆厂的造价大约一亿美元.

2010开工的台积电的半导体晶圆厂, Fab 15, 总共造价累计约九十五亿美元.

有专家估算,到2020年,建造一个最新的晶圆厂,成本要增加到一百五十亿美元以上.

芯片生产厂房的建立为什么如此昂贵?


芯片的生产工艺,随着技术更新换代,越发复杂.其生产过程包括上千个步骤, 水电消耗极大. 大型晶圆厂占地面积一般至少十几万平方米, 一天用水接近两万吨, 耗电量超过三十兆瓦.

十三、生产过程中最昂贵的部分,是一个叫做"学习曲线"的东西.

厂房内的每个机器都可能有几百个控制旋钮,每个旋钮都需要设定在正确的位置.最关键的一小部分设置,需要不断的长时间的人工尝试, 获得反馈, 再优化. 这需要一个高度专业化训练的科学家和工程师团队,长时间奋战调试才能完成.

晶圆厂的生产需要有足够的产能规模来调试,调试需要时间,时间就是金钱.

晶圆厂生产的芯片,有个概念叫做良率 (Yield),就是质量合格的芯片占一个晶圆上芯片总数的比例.生产调试的过程,就是提高良率的过程,良率越高,单位芯片的成本就越低.

而最终芯片的单位成本, 和芯片的累计产量的关系, 就是所谓的"学习曲线".如下图.


学习曲线通常用这个数学公式表示:
     Y = a X^b
这里 Y 是累积单位产品的平均生产成本, a 是第一批产品的生产成本, X 是累计生产产品的总数, b 是负数,其绝对值越大,代表着学习曲线的进步速度越快.

"学习曲线"作为工业生产中的概念, 在上个世纪三十年代,由波音的工程师 T. P. Wright 最初提出. 他发现,飞机制造费用,随着生产数量增加,不断下降.

比如第一架新飞机成本是一亿美元,第二架就可能降到八千万,第四架降到六千四百万,单个飞机的制造成本随着累计生产数量的每次翻番而下降20%.

为什么生产成本会不断下降? 原因包括: 1.生产流程和零部件的标准化. 2. 工人效率提高. 3. 错误减少. 4. 材料浪费减少等等.

这个规律, 在许多其它传统制造业的生产中,也有体现.

在半导体生产这个游戏中, 胜者属于累计生产规模最大的厂家,因为"学习曲线"决定了:

最低的成本来自最大的累计生产规模.

十四、从一个晶圆厂的晶片生产成本的下降曲线,到过去五十年摩尔定律的进步曲线,实际上可以看成是"学习曲线"规律在芯片行业的自然体现.

支持"学习曲线"和摩尔定律前进的最主要的动力,是人们对于芯片的不断增长的海量需求.

更大的内存芯片存储文件/照片/录像/歌曲, 更快的芯片传输更多的数据,能耗更小的芯片增加电池的待机时间.

这些需求,和它后面的实实在在的购买力,才能推动更多资金投入半导体行业的研发.

全世界半导体芯片的销售额,从1990年的五百五十亿美元, 增长到2015年的三千多亿美元.

建设一个晶圆厂的成本,从八十年代初的一亿美元,到九十年代中期的十亿美元,到2020年预计的一百五十亿美元.芯片市场有多大,就可支撑相应规模的晶圆厂.

而"学习曲线"促成的单个晶体管生产成本/价格的下降,又催生新的更多的应用和需求,进一步扩大半导体的市场,吸引更多的资金投入研发,形成一个良性循环.


但这些进步的完成,需要在现有半导体产业生态系统内, 一个个馒头地吃. 指望另辟蹊径, 直接吃第七个馒头就饱了,是不符合客观规律的.

从经济学的角度看,只要这个良性循环继续不受干扰地运作,就会自然有大量资金的持续投入,摩尔定律在工程上遇到的各种挑战,终将被克服.

十五、2012年七月,半导体制造业发生了一件大事: 三家芯片生产的巨头,英特尔/台积电/三星, 集体为半导体光刻业的巨头, 荷兰公司艾司摩尔 (ASML), 承诺支付累计十三亿欧元的研发费用,帮其承担部分新技术开发的风险.

三家公司同时还以每股接近 40 欧元的价格注资购买了 ASML 大约23%的股票. ( 四年后的2016年七月, ASML 股价在 96 欧元左右.)

ASML 获得的资金, 主要用于加快 450 毫米晶圆片相关的器材和下一代极紫外线光刻技术 (EUV)的研发.


(上图为 ASML 的极紫外光刻机, 单价接近一亿欧元)

光刻工艺,占芯片生产成本的接近一半. 为了保证半导体产业链的技术发展,继续按照摩尔定律的路线图前进,芯片巨头们赤膊上阵,直接注巨资给器材商加速研发,这是第一次.

这同时也应了中国的一句老话: 有钱能使鬼推摩(尔).

只要终极市场有需求,只要有源源不断的资金注入,所有工程挑战,都是最终可以被克服的.

十六、半导体行业未来的发展,还会吸引多少钱来推摩(尔定律)呢?

咨询公司普华永道2015年的一份报告预测,全球半导体行业的产值将从 2014年的三千三百亿美元增加到2019年的四千三百亿美元. 但是他们当时的模型,主要是假设半导体在工业生产,汽车/电车和物联网上的需求增长,而没有考虑到在人工智能应用上的爆发.

摩尔定律的进一步发展, 对于人工智能意味着什么?

英伟达的 DGX-1 的超算系统,在训练 alexnet 的包含六千万个自由参数的神经网络模型时,只需两个小时.

粗略地推算,对于一个包含一百亿个自由参数的神经网络模型的训练,DGX-1 需要耗费三百多个小时, 接近两周的时间. 而根据丹麦学者 Bente Pakkenberg 2003 年的论文的估计,人脑皮层等价于一个有着一百五十万亿个自由参数的神经网络.要想模拟和人脑一样复杂度的模型,需要的计算能力要在 DGX-1 的一万五千倍左右.

IBM 为首的团队,正在研发下一代的超级计算机 Summit,预计 2018年初面世.这个超算系统预计计算速度将达到 二十万 FLOPS, 这相当于DGX-1 系统的 43 FLOPS 速度的五千倍.


这个计算能力,应当可以部分模拟和人脑一样复杂的神经网络系统,并且通过主动的自我学习获得和人脑一样复杂的抽象思考能力, 而不只是简单的听说读写.

IBM Summit 的成本大约三亿两千万美元, 假设其使用寿命长达十年,那么每个小时计算成本高达三千美元.考虑到该系统耗电约 15 兆瓦时,假设一度电电费是 5 美分,一个小时电费就要 750 美元.

一个小时成本接近四千美元,听上去很贵.但是如果把这个数字横向比较:

  1. 美国前总统克林顿一小时演讲费: 二十五万美元


  2. 克林顿的女儿 Chelsea Clinton, 在密苏里大学的一小时演讲费: 六万五千美元

  3. 美国五百强上市公司 ceo 平均薪酬一年一千三百万美元,按照一年两千小时工作时间, 折合时薪大约六千五百美元.

  4. 硅谷普通工程师,假设基本薪水二十万美元, 加各类健康保险和股票的福利对于雇主的成本约三十万美元,折合时薪约一百五十美元.

这些成功人士面对的竞争, 将是一个:

孜孜不倦可以24小时连续学习工作/不用吃饭喝茶上厕所的工作狂.

上知天文/下知地理/会多国语言/思维缜密/反应迅速/高度理性/见人说人话见鬼说鬼话的智者.

不会罢工/请假/跳槽/内耗/出卖领导, 并且每年根据摩尔定律自觉降薪30%的模范雇员.

亚马逊的创始人贝索斯曾经说过, "你的利润率就是我的机会" (Your magin is my opportunity). 只要世界上还有人靠出卖智力获得高额利润,就会有资金推动人工智能及其背后的芯片技术的研发,与其正面竞争.

十七、以史为鉴,正是因为大量资金的支持,才使得英特尔找到"高介电常数"的材料,在45纳米芯片生产时,解决了栅极漏电的问题.

同样是因为大量资金的投入,FinFET 的技术在22 纳米的芯片生产中实现,极大缓解了短沟道效应下的漏电问题.

当栅长在2020年以后缩小到 5纳米时,一种可能, 是出现目前大家没有想到的工程解决方案, 跳过测不准原理的限制.

另外一种可能,就是当一个维度走到极限时,从另外一个维度提升产品性能, 达到等价的效果.

CPU 时钟频率走到尽头,就在内存架构的设计上努力.

单项计算任务的速度无法提高,就通过提升网络交换器和内存传输的带宽,加大系统的并行度.

硬件架构的优化达到极致,就在软件设计上下功夫.

平面太挤了, 就转向三维.


(上图为 AMD 和三星联和开发的新一代三维/高带宽/低能耗的内存)

十八、如果从更长远的历史视角看, 按照未来学家 Ray Kurzweil 的话说, 摩尔定律只是几百年来, 人类的计算技术, 从算盘, 到手摇机械计算机,到继电器, 到真空管, 晶体管, 进而到大规模集成电路的演变, 在过去五十年的自然体现.


经济规律在计算技术地发展中, 自然地选择了脱颖而出的大规模集成电路.但如果硅基的集成电路在未来某个时间点,计算能力走到极限,同样的经济规律会自然地选择,在那个时候涌现出来的, 最经济的技术方案.

这个未来方案会是什么? 会是砷化镓为材料的集成电路? 会是量子计算机? 或者以DNA分子为基础的新的计算架构?摩尔定律还能走多远?

现在无法预知.但是如果你相信,计算通讯能力在人类经济和文明的发展中将发挥越来越大的作用,那么更多的资金将会继续推动计算技术的研发,那么摩尔定律在未来还会走很远, 很远.

一网打尽系列文章,请回复以下关键词查看:

习近平 | 创新中国 | 创新创业 | 协同创新 | 产学研 | 预见2016 | 新科技革命 | 基础研究 | 中国武器 | 电磁炮 | 生物 | 仿生 | 脑科学 | 虚拟现实 | 增强现实 | 装备采办 | 抵消战略 | 水下战 | 轰炸机 | 预警机 | 战斗机 | 运输机 | 六代机 | 能源 | 电池 | 云计算 | 大学排名 | 博士 | 导师 | 凯文凯利 | 钱学森 | 黄志澄 | 许得君 | 施一公 | 王喜文 | 贺飞 | 李萍 | 刘锋 | 王煜全 | 马斯克 | 纳米 | 基金 | 人工智能 | 机器人 | 无人机 | 俄罗斯 | 日本 | 英国 | 印度 | 以色列 | 物联网 | 互联网+ | 大数据 | 谷歌 | 工业4.0 | 颠覆性技术 | 3D打印 | 4D打印 | 太赫兹 | 硅谷 | 石墨烯 | 北斗 | 通信 | 智能制造 | 军民融合 | 民参军 | 激光 | 智库 | 商业航天 | 量子 | 基因 | 基因编辑 | 未来战争 | 网络空间战 | 网络武器 | 成果转化 | 超材料 | 超级计算机 | 卫星 | 战略能力办公室 | DARPA | Gartner | MIT技术评论 | 2016文章全收录 | 2015文章全收录 | 2014文章全收录 |  其他主题系列陆续整理中,敬请期待…… 


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存